43 research outputs found

    Inférence bayésienne de l'erreur de modèle pour la calibration des codes CFD

    Get PDF
    The calibration of a computer code consists in the comparison of its predictions to the experimental data, so that the best input parameter values can be inferred. We work in a Bayesian framework, where the parameters are treated as random variables to accurately represent the uncertainty around their values, and the subsequent model predictions. The focus is on situation where, regardless of parameter values, there remains an irreducible discrepancy between model predictions and the data, which reveals the presence of model error. Every model is an imperfect representation of reality, and its model error is caused by the approximating assumptions it is based on.In the first part of the manuscript we present the theoretical and numerical contributions developed in this thesis, and the principal one is the development of a new technique for estimating model error, named Full Maximum a Posteriori (FMP), based on a new parameterization of the model discrepancy distribution, and the introduction of optimal hyperparameters. This technique is replaced in the context of traditional estimation technique, notably the one of Kennedy-O'Hagan (KOH) which is the standard in the domain. Under an assumption of normality of the posterior density, we show that the FMP method outperforms the KOH method, since it does not underestimate the parameter uncertainty and it reveals all possible explanations of the data when the posterior is multimodal. The relevance of this normality assumption is examined in situations where the number of experimental observations tends to infinity, in three asymptotic frameworks. A second chapter is dedicated to numerical techniques that are used in calibration, notably the sampling of densities using Markov Chain Monte-Carlo techniques, and the construction of a surrogate model following a dimensionality reduction of the code output using a Principal Component Analysis. We introduce a variant of the resampling algorithm applied to the FMP sample to improve its quality. In order to accelerate the FMP technique, we also propose an algorithm of construction of surrogate models for the optimal hyperparameters, with training points drawn from samples of successive Markov Chains, weighted according to the predictive uncertainties.In a second part we present two applications of the FMP calibration, where it is compared to the KOH method and the reference solution when it is attainable. First we consider the study of a liquid boiling at a wall, with a model that predicts the partitioning of the wall heat flux. The calibration is performed using data from multiple experimental configurations, which constitutes a significant number of hyperparameters to be treated simulataneously. In a second chapter we treat both experimental uncertainty and model error in the code Neptune_CFD, specifically considering the model of interfacial area transport based on bubble interaction. The calibration is performed using the data obtained from the DEBORA experimental facility. On both applications we show that the FMP method is more robust than the KOH method since it avoids overconfident estimation of model parameters and falsely narrow confidence intervals on the predictions. Furthermore, the FMP method is performed at lower cost than the reference solution, so it is attainable in situations where the number of unknowns is high. The robust and cheap character of this technique makes it relevant for nuclear applications, but also in many more domains where we require the reproduction of experimental data with numerical simulations.La calibration d'un code de calcul consiste en la comparaison de ses prédictions aux données expérimentales dont on dispose, pour déterminer les meilleures valeurs des paramètres d'entrée. Nous travaillons dans un cadre bayésien où ces paramètres sont représentés par des variables aléatoires, permettant une représentation fidèle de l'incertitude sur leurs valeurs ainsi que sur les prédictions. Nous nous intéressons à des situations où, après avoir étudié les possibles variations des paramètres d'entrée du code, il subsiste une distance irréductible entre prédictions et observations, ce qui indique la présence d'une erreur de modèle. Cette erreur provient de l'utilisation d'hypothèses simplificatrices lors de l'élaboration d'un modèle.Dans une première partie nous présentons les contributions théoriques et numériques de cette thèse, dont la principale est une nouvelle approche d'estimation de l'erreur de modèle nommée Full Maximum a Posteriori (FMP), portée par l'introduction d'une nouvelle paramétrisation de la distribution du biais de modèle, et sur le calcul d'hyperparamètres optimaux. Cette méthode est placée dans le contexte des techniques traditionnelles d'estimation et notamment de la méthode classique de Kennedy et O'Hagan (KOH). Sous une hypothèse de normalité de la densité à posteriori, nous démontrons la supériorité de l'approche FMP vis-à-vis de la méthode KOH car elle ne sous-estime pas l'incertitude paramétrique et révèle la totalité des explications possibles des données lorsque la postérieure est multimodale. La pertinence de cette hypothèse de construction est ensuite étudiée dans des situations où le nombre d'observations expérimentales tend vers l'infini, selon trois modes d'acquisition différents. Nous présentons les techniques numériques qui sont au coeur de la calibration, à savoir l'échantillonnage de densités selon la méthode de Monte-Carlo par chaînes de Markov, et la construction de modèles de substitution du code de calcul couplée à une réduction de dimensionalité au moyen d'une Analyse par Composantes Principales. Une méthode d'amélioration de la précision des échantillons FMP basée sur l'algorithme de rééchantillonnage est également proposée. Dans le but d'accélérer la méthode FMP, nous proposons un algorithme permettant la construction de modèles de substitution pour les hyperparamètres optimaux, où les points d'entraînement sont tirés au hasard dans des échantillons de chaînes de Markov successives, avec pondération selon l'incertitude de prédiction.La seconde partie de la thèse est consacrée aux applications de la méthode FMP et la comparaison avec la méthode KOH et la solution de référence au problème de calibration. Dans un premier temps nous procédons à la calibration d'un modèle de répartition de flux thermique à la paroi dans un écoulement en convection forcée, en utilisant des observations provenant de multiples configurations expérimentales, ce qui constitue un nombre significatif d'hyperparamètres à traiter de manière simultanée. La seconde application porte sur le code de calcul Neptune_CFD, où nous traitons simultanément l'incertitude expérimentale et l'erreur de modèle qui porte sur l'équation de transport de l'aire interfaciale, à partir de données obtenues sur l'expérience DEBORA. Sur ces deux applications, nous démontrons que la méthode FMP est plus robuste que la méthode KOH car elle évite une confiance excessive envers les paramètres et produit des intervalles de confiance plus fiables sur les prédictions. De plus, son coût réduit permet de réaliser une calibration dans des situations où la solution de référence serait trop chère à calculer. La technique FMP de calibration, illustrée ici par des applications empruntées au domaine nucléaire, est également applicable à de nombreuses situations où le but est de reproduire des données expérimentales par le biais de simulations numériques

    Bayesian Inference of Model Error in Imprecise Models

    Get PDF
    International audienceModern science makes use of computer models to reproduce and predict complex physical systems. Every model involves parameters, which can be measured experimentally (e.g., mass of a solid), or not (e.g., coefficients in the k − ε turbulence model). The latter parameters can be inferred from experimental data, through a procedure called calibration of the computer model. However, some models may not be able to represent reality accurately, due to their limited structure : this is the definition of model error. The "best value" of the parameters of a model is traditionnally defined as the best fit to the data. It depends on the experiment, the quantities of interest considered, and also on the supposed underlying statistical structure of the error. Bayesian methods allow the calibration of the model by taking into account its error. The fit to the data is balanced with the complexity of the model, following Occam's principle. Kennedy and O'Hagan's innovative method [1] to represent model error with a Gaussian process is a reference in this field. Recently, Tuo and Wu [3] proposed a frequentist addition to this method, to deal with the identifiability problem between model error and calibration error. Plumlee [2] applied the method to simple situations and demonstrated the potential of the approach. In this work, we compare Kennedy and O'Hagan's method with its frequentist version, which involves an optimization problem, on several numerical examples with varying degrees of model error. The calibration provides estimates of the model parameters and model predictions, while also inferring model error within observed and not observed parts of the experimental design space. The case of non-linear costly computer models is also considered, and we propose a new algorithm to reduce the numerical complexity of Bayesian calibration techniques

    Vitamin B12 Attenuates Changes in Phospholipid Levels Related to Oxidative Stress in SH-SY5Y Cells

    Get PDF
    Oxidative stress is closely linked to Alzheimer’s disease (AD), and is detected peripherally as well as in AD-vulnerable brain regions. Oxidative stress results from an imbalance between the generation and degradation of reactive oxidative species (ROS), leading to the oxidation of proteins, nucleic acids, and lipids. Extensive lipid changes have been found in post mortem AD brain tissue; these changes include the levels of total phospholipids, sphingomyelin, and ceramide, as well as plasmalogens, which are highly susceptible to oxidation because of their vinyl ether bond at the sn-1 position of the glycerol-backbone. Several lines of evidence indicate that a deficiency in the neurotropic vitamin B12 is linked with AD. In the present study, treatment of the neuroblastoma cell line SH-SY5Y with vitamin B12 resulted in elevated levels of phosphatidylcholine, phosphatidylethanolamine, sphingomyelin, and plasmalogens. Vitamin B12 also protected plasmalogens from hydrogen peroxide (H2O2 )-induced oxidative stress due to an elevated expression of the ROS-degrading enzymes superoxide-dismutase (SOD) and catalase (CAT). Furthermore, vitamin B12 elevates plasmalogen synthesis by increasing the expression of alkylglycerone phosphate synthase (AGPS) and choline phosphotransferase 1 (CHPT1) in SH-SY5Y cells exposed to H2O2 -induced oxidative stress

    Aspartame and Its Metabolites Cause Oxidative Stress and Mitochondrial and Lipid Alterations in SH-SY5Y Cells

    Get PDF
    Due to a worldwide increase in obesity and metabolic disorders such as type 2 diabetes, synthetic sweeteners such as aspartame are frequently used to substitute sugar in the diet. Possible uncertainties regarding aspartame’s ability to induce oxidative stress, amongst others, has led to the recommendation of a daily maximum dose of 40 to 50 mg per kg. To date, little is known about the effects of this non-nutritive sweetener on cellular lipid homeostasis, which, besides elevated oxidative stress, plays an important role in the pathogenesis of various diseases, including neurodegenerative diseases such as Alzheimer’s disease. In the present study, treatment of the human neuroblastoma cell line SH-SY5Y with aspartame (271.7 µM) or its three metabolites (aspartic acid, phenylalanine, and methanol (271.7 µM)), generated after digestion of aspartame in the human intestinal tract, resulted in significantly elevated oxidative stress associated with mitochondrial damage, which was illustrated with reduced cardiolipin levels, increased gene expression of SOD1/2, PINK1, and FIS1, and an increase in APF fluorescence. In addition, treatment of SH-SY5Y cells with aspartame or aspartame metabolites led to a significant increase in triacylglycerides and phospholipids, especially phosphatidylcholines and phosphatidylethanolamines, accompanied by an accumulation of lipid droplets inside neuronal cells. Due to these lipid-mediating properties, the use of aspartame as a sugar substitute should be reconsidered and the effects of aspartame on the brain metabolism should be addressed in vivo

    Drug-Initiated Synthesis of Cladribine-Based Polymer Prodrug Nanoparticles: Biological Evaluation and Structure Activity Relationships

    Get PDF
    International audienceBy using two reversible deactivation radical polymerization techniques, either nitroxide-mediated polymerization or reversible addition-fragmentation chain transfer polymerization, the "drug-initiated" approach was applied to cladribine (CdA) as an anticancer drug to synthesize small libraries of well-defined and self-stabilized CdA-based polymer prodrug nanoparticles, differing from the nature and the molar mass of the grown polymer, and the nature of the linker between CdA and the polymer, thus allowing structure-cytotoxicity relationships to be determined. Their biological evaluation was investigated in vitro on L1210 cancer cells. The preparation of fluorescent CdA-based nanoparticles with excellent imaging ability was also reported by applying the "drug-initiated" approach to an aggregation-induced emission-active dye

    Inférence bayésienne de l'erreur de modèle pour la calibration des codes CFD

    No full text
    The calibration of a computer code consists in the comparison of its predictions to the experimental data, so that the best input parameter values can be inferred. We work in a Bayesian framework, where the parameters are treated as random variables to accurately represent the uncertainty around their values, and the subsequent model predictions. The focus is on situation where, regardless of parameter values, there remains an irreducible discrepancy between model predictions and the data, which reveals the presence of model error. Every model is an imperfect representation of reality, and its model error is caused by the approximating assumptions it is based on.In the first part of the manuscript we present the theoretical and numerical contributions developed in this thesis, and the principal one is the development of a new technique for estimating model error, named Full Maximum a Posteriori (FMP), based on a new parameterization of the model discrepancy distribution, and the introduction of optimal hyperparameters. This technique is replaced in the context of traditional estimation technique, notably the one of Kennedy-O'Hagan (KOH) which is the standard in the domain. Under an assumption of normality of the posterior density, we show that the FMP method outperforms the KOH method, since it does not underestimate the parameter uncertainty and it reveals all possible explanations of the data when the posterior is multimodal. The relevance of this normality assumption is examined in situations where the number of experimental observations tends to infinity, in three asymptotic frameworks. A second chapter is dedicated to numerical techniques that are used in calibration, notably the sampling of densities using Markov Chain Monte-Carlo techniques, and the construction of a surrogate model following a dimensionality reduction of the code output using a Principal Component Analysis. We introduce a variant of the resampling algorithm applied to the FMP sample to improve its quality. In order to accelerate the FMP technique, we also propose an algorithm of construction of surrogate models for the optimal hyperparameters, with training points drawn from samples of successive Markov Chains, weighted according to the predictive uncertainties.In a second part we present two applications of the FMP calibration, where it is compared to the KOH method and the reference solution when it is attainable. First we consider the study of a liquid boiling at a wall, with a model that predicts the partitioning of the wall heat flux. The calibration is performed using data from multiple experimental configurations, which constitutes a significant number of hyperparameters to be treated simulataneously. In a second chapter we treat both experimental uncertainty and model error in the code Neptune_CFD, specifically considering the model of interfacial area transport based on bubble interaction. The calibration is performed using the data obtained from the DEBORA experimental facility. On both applications we show that the FMP method is more robust than the KOH method since it avoids overconfident estimation of model parameters and falsely narrow confidence intervals on the predictions. Furthermore, the FMP method is performed at lower cost than the reference solution, so it is attainable in situations where the number of unknowns is high. The robust and cheap character of this technique makes it relevant for nuclear applications, but also in many more domains where we require the reproduction of experimental data with numerical simulations.La calibration d'un code de calcul consiste en la comparaison de ses prédictions aux données expérimentales dont on dispose, pour déterminer les meilleures valeurs des paramètres d'entrée. Nous travaillons dans un cadre bayésien où ces paramètres sont représentés par des variables aléatoires, permettant une représentation fidèle de l'incertitude sur leurs valeurs ainsi que sur les prédictions. Nous nous intéressons à des situations où, après avoir étudié les possibles variations des paramètres d'entrée du code, il subsiste une distance irréductible entre prédictions et observations, ce qui indique la présence d'une erreur de modèle. Cette erreur provient de l'utilisation d'hypothèses simplificatrices lors de l'élaboration d'un modèle.Dans une première partie nous présentons les contributions théoriques et numériques de cette thèse, dont la principale est une nouvelle approche d'estimation de l'erreur de modèle nommée Full Maximum a Posteriori (FMP), portée par l'introduction d'une nouvelle paramétrisation de la distribution du biais de modèle, et sur le calcul d'hyperparamètres optimaux. Cette méthode est placée dans le contexte des techniques traditionnelles d'estimation et notamment de la méthode classique de Kennedy et O'Hagan (KOH). Sous une hypothèse de normalité de la densité à posteriori, nous démontrons la supériorité de l'approche FMP vis-à-vis de la méthode KOH car elle ne sous-estime pas l'incertitude paramétrique et révèle la totalité des explications possibles des données lorsque la postérieure est multimodale. La pertinence de cette hypothèse de construction est ensuite étudiée dans des situations où le nombre d'observations expérimentales tend vers l'infini, selon trois modes d'acquisition différents. Nous présentons les techniques numériques qui sont au coeur de la calibration, à savoir l'échantillonnage de densités selon la méthode de Monte-Carlo par chaînes de Markov, et la construction de modèles de substitution du code de calcul couplée à une réduction de dimensionalité au moyen d'une Analyse par Composantes Principales. Une méthode d'amélioration de la précision des échantillons FMP basée sur l'algorithme de rééchantillonnage est également proposée. Dans le but d'accélérer la méthode FMP, nous proposons un algorithme permettant la construction de modèles de substitution pour les hyperparamètres optimaux, où les points d'entraînement sont tirés au hasard dans des échantillons de chaînes de Markov successives, avec pondération selon l'incertitude de prédiction.La seconde partie de la thèse est consacrée aux applications de la méthode FMP et la comparaison avec la méthode KOH et la solution de référence au problème de calibration. Dans un premier temps nous procédons à la calibration d'un modèle de répartition de flux thermique à la paroi dans un écoulement en convection forcée, en utilisant des observations provenant de multiples configurations expérimentales, ce qui constitue un nombre significatif d'hyperparamètres à traiter de manière simultanée. La seconde application porte sur le code de calcul Neptune_CFD, où nous traitons simultanément l'incertitude expérimentale et l'erreur de modèle qui porte sur l'équation de transport de l'aire interfaciale, à partir de données obtenues sur l'expérience DEBORA. Sur ces deux applications, nous démontrons que la méthode FMP est plus robuste que la méthode KOH car elle évite une confiance excessive envers les paramètres et produit des intervalles de confiance plus fiables sur les prédictions. De plus, son coût réduit permet de réaliser une calibration dans des situations où la solution de référence serait trop chère à calculer. La technique FMP de calibration, illustrée ici par des applications empruntées au domaine nucléaire, est également applicable à de nombreuses situations où le but est de reproduire des données expérimentales par le biais de simulations numériques

    Inférence bayésienne de l'erreur de modèle pour la calibration des codes CFD

    Get PDF
    The calibration of a computer code consists in the comparison of its predictions to the experimental data, so that the best input parameter values can be inferred. We work in a Bayesian framework, where the parameters are treated as random variables to accurately represent the uncertainty around their values, and the subsequent model predictions. The focus is on situation where, regardless of parameter values, there remains an irreducible discrepancy between model predictions and the data, which reveals the presence of model error. Every model is an imperfect representation of reality, and its model error is caused by the approximating assumptions it is based on.In the first part of the manuscript we present the theoretical and numerical contributions developed in this thesis, and the principal one is the development of a new technique for estimating model error, named Full Maximum a Posteriori (FMP), based on a new parameterization of the model discrepancy distribution, and the introduction of optimal hyperparameters. This technique is replaced in the context of traditional estimation technique, notably the one of Kennedy-O'Hagan (KOH) which is the standard in the domain. Under an assumption of normality of the posterior density, we show that the FMP method outperforms the KOH method, since it does not underestimate the parameter uncertainty and it reveals all possible explanations of the data when the posterior is multimodal. The relevance of this normality assumption is examined in situations where the number of experimental observations tends to infinity, in three asymptotic frameworks. A second chapter is dedicated to numerical techniques that are used in calibration, notably the sampling of densities using Markov Chain Monte-Carlo techniques, and the construction of a surrogate model following a dimensionality reduction of the code output using a Principal Component Analysis. We introduce a variant of the resampling algorithm applied to the FMP sample to improve its quality. In order to accelerate the FMP technique, we also propose an algorithm of construction of surrogate models for the optimal hyperparameters, with training points drawn from samples of successive Markov Chains, weighted according to the predictive uncertainties.In a second part we present two applications of the FMP calibration, where it is compared to the KOH method and the reference solution when it is attainable. First we consider the study of a liquid boiling at a wall, with a model that predicts the partitioning of the wall heat flux. The calibration is performed using data from multiple experimental configurations, which constitutes a significant number of hyperparameters to be treated simulataneously. In a second chapter we treat both experimental uncertainty and model error in the code Neptune_CFD, specifically considering the model of interfacial area transport based on bubble interaction. The calibration is performed using the data obtained from the DEBORA experimental facility. On both applications we show that the FMP method is more robust than the KOH method since it avoids overconfident estimation of model parameters and falsely narrow confidence intervals on the predictions. Furthermore, the FMP method is performed at lower cost than the reference solution, so it is attainable in situations where the number of unknowns is high. The robust and cheap character of this technique makes it relevant for nuclear applications, but also in many more domains where we require the reproduction of experimental data with numerical simulations.La calibration d'un code de calcul consiste en la comparaison de ses prédictions aux données expérimentales dont on dispose, pour déterminer les meilleures valeurs des paramètres d'entrée. Nous travaillons dans un cadre bayésien où ces paramètres sont représentés par des variables aléatoires, permettant une représentation fidèle de l'incertitude sur leurs valeurs ainsi que sur les prédictions. Nous nous intéressons à des situations où, après avoir étudié les possibles variations des paramètres d'entrée du code, il subsiste une distance irréductible entre prédictions et observations, ce qui indique la présence d'une erreur de modèle. Cette erreur provient de l'utilisation d'hypothèses simplificatrices lors de l'élaboration d'un modèle.Dans une première partie nous présentons les contributions théoriques et numériques de cette thèse, dont la principale est une nouvelle approche d'estimation de l'erreur de modèle nommée Full Maximum a Posteriori (FMP), portée par l'introduction d'une nouvelle paramétrisation de la distribution du biais de modèle, et sur le calcul d'hyperparamètres optimaux. Cette méthode est placée dans le contexte des techniques traditionnelles d'estimation et notamment de la méthode classique de Kennedy et O'Hagan (KOH). Sous une hypothèse de normalité de la densité à posteriori, nous démontrons la supériorité de l'approche FMP vis-à-vis de la méthode KOH car elle ne sous-estime pas l'incertitude paramétrique et révèle la totalité des explications possibles des données lorsque la postérieure est multimodale. La pertinence de cette hypothèse de construction est ensuite étudiée dans des situations où le nombre d'observations expérimentales tend vers l'infini, selon trois modes d'acquisition différents. Nous présentons les techniques numériques qui sont au coeur de la calibration, à savoir l'échantillonnage de densités selon la méthode de Monte-Carlo par chaînes de Markov, et la construction de modèles de substitution du code de calcul couplée à une réduction de dimensionalité au moyen d'une Analyse par Composantes Principales. Une méthode d'amélioration de la précision des échantillons FMP basée sur l'algorithme de rééchantillonnage est également proposée. Dans le but d'accélérer la méthode FMP, nous proposons un algorithme permettant la construction de modèles de substitution pour les hyperparamètres optimaux, où les points d'entraînement sont tirés au hasard dans des échantillons de chaînes de Markov successives, avec pondération selon l'incertitude de prédiction.La seconde partie de la thèse est consacrée aux applications de la méthode FMP et la comparaison avec la méthode KOH et la solution de référence au problème de calibration. Dans un premier temps nous procédons à la calibration d'un modèle de répartition de flux thermique à la paroi dans un écoulement en convection forcée, en utilisant des observations provenant de multiples configurations expérimentales, ce qui constitue un nombre significatif d'hyperparamètres à traiter de manière simultanée. La seconde application porte sur le code de calcul Neptune_CFD, où nous traitons simultanément l'incertitude expérimentale et l'erreur de modèle qui porte sur l'équation de transport de l'aire interfaciale, à partir de données obtenues sur l'expérience DEBORA. Sur ces deux applications, nous démontrons que la méthode FMP est plus robuste que la méthode KOH car elle évite une confiance excessive envers les paramètres et produit des intervalles de confiance plus fiables sur les prédictions. De plus, son coût réduit permet de réaliser une calibration dans des situations où la solution de référence serait trop chère à calculer. La technique FMP de calibration, illustrée ici par des applications empruntées au domaine nucléaire, est également applicable à de nombreuses situations où le but est de reproduire des données expérimentales par le biais de simulations numériques
    corecore